home *** CD-ROM | disk | FTP | other *** search
/ SGI Developer Toolbox 6.1 / SGI Developer Toolbox 6.1 - Disc 4.iso / documents / RFC / rfc1133.txt < prev    next >
Text File  |  1994-08-01  |  23KB  |  563 lines

  1.  
  2.  
  3.  
  4.  
  5.  
  6.  
  7. Network Working Group                                            J. Yu
  8. Request for Comments: 1133                                  H-W. Braun
  9.                                                 Merit Computer Network
  10.                                                          November 1989
  11.  
  12.  
  13.                  Routing between the NSFNET and the DDN
  14.  
  15. Status of this Memo
  16.  
  17.    This document is a case study of the implementation of routing
  18.    between the NSFNET and the DDN components (the MILNET and the
  19.    ARPANET).  We hope that it can be used to expand towards
  20.    interconnection of other Administrative Domains.  We would welcome
  21.    discussion and suggestions about the methods employed for the
  22.    interconnections.  No standards are specified in this memo.
  23.    Distribution of this memo is unlimited.
  24.  
  25. 1.  Definitions for this document
  26.  
  27.    The NSFNET is the backbone network of the National Science
  28.    Foundation's computer network infrastructure.  It interconnects
  29.    multiple autonomously administered mid-level networks, which in turn
  30.    connect autonomously administered networks of campuses and research
  31.    centers.  The NSFNET connects to multiple peer networks consisting of
  32.    national network infrastructures of other federal agencies.  One of
  33.    these peer networks is the Defense Data Network (DDN) which, for the
  34.    sake of this discussion, should be viewed as the combination of the
  35.    DoD's MILNET and ARPANET component networks, both of which are
  36.    national in scope.
  37.  
  38.    It should be pointed out that network announcements in one direction
  39.    result in traffic the other direction, e.g., a network announcement
  40.    via a specific interconnection between the NSFNET to the DDN results
  41.    in packet traffic via the same interconnection between the DDN to the
  42.    NSFNET.
  43.  
  44. 2.  NSFNET/DDN routing until mid '89
  45.  
  46.    Until mid-1989, the NSFNET and the DDN were connected via a few
  47.    intermediate routers which in turn were connected to the ARPANET.
  48.    These routers exchanged network reachability information via the
  49.    Exterior Gateway Protocol (EGP) with the NSFNET nodes as well as with
  50.    the DDN Mailbridges.  In the context of network routing these
  51.    Mailbridges can be viewed as route servers, which exchange external
  52.    network reachability information via EGP while using a proprietary
  53.    protocol to exchange routing information among themselves.
  54.    Currently, there are three Mailbridges at east coast locations and
  55.  
  56.  
  57.  
  58. Yu & Braun                                                      [Page 1]
  59.  
  60. RFC 1133         Routing between the NSFNET and the DDN    November 1989
  61.  
  62.  
  63.    three Mailbridges at west coast locations.  Besides functioning as
  64.    route servers the Mailbridges also provide for connectivity, i.e,
  65.    packet switching, between the ARPANET and the MILNET.
  66.  
  67.    The intermediate systems between the NSFNET and the ARPANET were
  68.    under separate administrative control, typically by a NSFNET mid-
  69.    level network.
  70.  
  71.    For a period of time, the traffic between the NSFNET and the DDN was
  72.    carried by three ARPANET gateways.  These ARPANET gateways were under
  73.    the administrative control of a NSFNET mid-level network or local
  74.    site and had direct connections to both a NSFNET NSS and an ARPANET
  75.    PSN.  These routers had simultaneous EGP sessions with a NSFNET NSS
  76.    as well as a DDN Mailbridge.  This resulted in making them function
  77.    as packet switches between the two peer networks.  As network routes
  78.    were established packets were switched between the NSFNET and the
  79.    DDN.
  80.  
  81.    The NSFNET used three NSFNET/ARPANET gateways which had been provided
  82.    by three different sites for redundancy purposes.  Those three sites
  83.    were initially at Cornell University, the University of Illinois
  84.    (UC), and Merit.  When the ARPANET connections at Cornell University
  85.    and the University of Illinois (UC) were terminated, a similar setup
  86.    was introduced at the Pittsburgh Supercomputer Center and at the John
  87.    von Neumann Supercomputer Center which, together with the Merit
  88.    connection, allowed for continued redundancy.
  89.  
  90.    As described in RFC1092 and RFC1093, NSFNET routing is controlled by
  91.    a distributed policy routing database that controls the acceptance
  92.    and distribution of routing information.  This control also extends
  93.    to the NSFNET/ARPANET gateways.
  94.  
  95. 2.1  Inbound announcement -- Routes announced from the DDN to the
  96.      NSFNET
  97.  
  98.    In the case of the three NSFNET/ARPANET gateways, each of the
  99.    associated NSSs accepted the DDN routes at a different metric.  The
  100.    route with the lowest metric then was favored for the traffic towards
  101.    the specific DDN network, but had that specific gateway to the DDN
  102.    experienced problems with loss of routing information, one of the
  103.    redundant gateways would take over and carry the load as a fallback
  104.    path.  Assuming consistent DDN routing information at any of the
  105.    three gateways, as received from the Mailbridges, only a single
  106.    NSFNET/ARPANET gateway was used at a given time for traffic from the
  107.    NSFNET towards the DDN, with two further gateways standing by as hot
  108.    backups.  The metric for network announcements from the DDN to the
  109.    NSFNET was coordinated by the Merit/NSFNET project.
  110.  
  111.  
  112.  
  113.  
  114. Yu & Braun                                                      [Page 2]
  115.  
  116. RFC 1133         Routing between the NSFNET and the DDN    November 1989
  117.  
  118.  
  119. 2.2  Outbound announcement -- Routes announced from the NSFNET to the
  120.      DDN
  121.  
  122.    Each NSS involved with NSFNET/DDN routing had an EGP peer relation
  123.    with the NSFNET/ARPANET gateway.  Via EGP it announced a certain set
  124.    of NSFNET connected networks, again, as controlled by the distributed
  125.    policy routing database, to its peer.  The NSFNET/ARPANET gateway
  126.    then redistributed the networks it had learned from the NSS to the
  127.    DDN via a separate EGP session.  Each of the NSFNET/ARPANET gateways
  128.    used a separate Autonomous System number to communicate EGP
  129.    information with the DDN.  Also these Autonomous System numbers were
  130.    not the same as the NSFNET backbone uses to communicate with directly
  131.    attached client networks.  The NSFNET/ARPANET gateways used the
  132.    Autonomous System number of the local network.  The metrics for
  133.    announcing network numbers to the DDN Mailbridges were set according
  134.    to the requests of the mid-level network of which the specific
  135.    individual network was a client.  Mid-level network also influenced
  136.    the specific NSFNET/ARPANET gateway used, including primary/secondary
  137.    selection.  These primary/secondary selections among the
  138.    NSFNET/ARPANET gateways allowed for redundancy, while the preference
  139.    of network announcements was modulated by the metric used for the
  140.    announcements to the DDN from the NSFNET/ARPANET gateways.  Some of
  141.    the selection decisions were based on reliability of a specific
  142.    gateway or congestion expected in a specific PSN that connected to
  143.    the NSFNET/ARPANET gateway.
  144.  
  145. 2.3  Administrative aspects
  146.  
  147.    From an administrative point of view, the NSFNET/ARPANET gateways
  148.    were administered by the institution to which the gateway belonged.
  149.    This has never been a real problem due to the excellent cooperation
  150.    received from all the involved sites.
  151.  
  152. 3.  NSFNET/DDN routing via attached Mailbridges
  153.  
  154.    During the first half of 1989 a new means of interconnectivity
  155.    between the NSFNET and the DDN was designed and implemented.
  156.    Ethernet adapters were installed in two of the Mailbridges, which
  157.    previously just connected the MILNET and the ARPANET, allowing a
  158.    direct interface to NSFNET nodes.  Of these two Mailbridges one is
  159.    located on the west coast at NASA-Ames located at Moffett Field, CA,
  160.    and the other one is located on the east coast at Mitre in Reston,
  161.    VA.  With this direct interconnection it became possible for the
  162.    NSFNET to exchange routing information directly with the DDN route
  163.    servers, without a gateway operated by a mid-level network in the
  164.    middle.  This also eliminated the need to traverse the ARPANET in
  165.    order to reach MILNET sites.  It furthermore allows the Defense
  166.    Communication Agency as well as the National Science Foundation to
  167.  
  168.  
  169.  
  170. Yu & Braun                                                      [Page 3]
  171.  
  172. RFC 1133         Routing between the NSFNET and the DDN    November 1989
  173.  
  174.  
  175.    exercise control over the interconnection on a need basis, e.g., the
  176.    connectivity can now be easily disabled from either site at times of
  177.    tighter network security concerns.
  178.  
  179. 3.1  Inbound announcement -- Routes announced from the DDN to the
  180.      NSFNET
  181.  
  182.    The routing setup for the direct Mailbridge connections is somewhat
  183.    different, as compared to the previously used NSFNET/ARPANET
  184.    gateways.  Instead of a single NSFNET/ARPANET gateway carrying all
  185.    the traffic from the DDN to the NSFNET at any moment, the
  186.    distribution of network numbers is now split between the two
  187.    Mailbridges.  This results in a distributed load, with specific
  188.    network numbers always preferring a particular Mailbridge under
  189.    normal operating circumstances.  In the case of an outage at one of
  190.    the Mailbridge connections, the other one fully takes over the load
  191.    for all the involved network numbers.  For this setup, the two DDN
  192.    links are known as two different Autonomous System numbers by the
  193.    NSFNET.  The routes learned via the NASA-Ames Mailbridges are part of
  194.    the Autonomous System 164 which is also the Autonomous System number
  195.    which the Mailbridges are using by themselves during the EGP session.
  196.    In the case of the EGP sessions with the Mitre Mailbridge, the DDN-
  197.    internal Autonomous System number of 164 is overwritten with a
  198.    different Autonomous System number (in this case 184) and the routes
  199.    learned via the Mitre Mailbridge will therefore become part of
  200.    Autonomous System 184 within the NSFNET.
  201.  
  202.    The NSFNET-inbound routing is controlled by the distributed policy
  203.    routing database.  In particular, the network number is verified
  204.    against a list of legitimate networks, and a metric is associated
  205.    with an authorized network number for a particular site.  For
  206.    example, both NSSs in Palo Alto and College Park learn net 10 (the
  207.    ARPANET network number) from the Mailbridges they are connected to
  208.    and have EGP sessions.  The Palo Alto NSS will accept Net 10 with a
  209.    metric of 10, while the College Park NSS will accept the same network
  210.    number with a metric of 12.  Therefore, traffic destinated to net 10
  211.    will prefer the path via the Palo Alto NSS and the NASA-Ames
  212.    Mailbridge.  If the connection via the NASA-Ames Mailbridge is not
  213.    functioning, the traffic will be re-routed via the Mailbridge link at
  214.    Mitre.  Each of the two NSS accepts half of the network routes via
  215.    EGP from its co- located Mailbridge at a lower metric and the other
  216.    half at a higher metric.  The half with the lower metric at the Palo
  217.    Alto NSS will be the same set which uses a higher metric at the
  218.    College Park NSS and vice versa.
  219.  
  220.    There are at least three different possibilities about how the NSFNET
  221.    could select a path to a DDN network via a specific Mailbridge, i.e.,
  222.    the one at NASA-Ames versus the one at Mitre:
  223.  
  224.  
  225.  
  226. Yu & Braun                                                      [Page 4]
  227.  
  228. RFC 1133         Routing between the NSFNET and the DDN    November 1989
  229.  
  230.  
  231.       1.  Assign a primary path for all DDN networks to a single
  232.           Mailbridge and use the other purely as a backup path.
  233.  
  234.       2.  Distribute the DDN networks randomly across the two
  235.           Mailbridges.
  236.  
  237.       3.  Let the DDN administration inform the NSFNET which networks
  238.           on the DDN are closer to a specific Mailbridge so that the
  239.           particular Mailbridge would accept these networks at a lower
  240.           metric.  The second Mailbridge would then function as a backup
  241.           path.  From a NSFNET point of view, this would mean treating the
  242.           DDN like other NSFNET peer networks such as the NASA Science
  243.           network (NSN) or DOE's Energy Science Network (ESNET).
  244.  
  245.    We are currently using alternative (2) as an interim solution.  At
  246.    this time, the DDN administration is having discussions with NSFNET
  247.    about moving to alternative (3), which would allow them control over
  248.    how the DDN networks would be treated in the NSFNET.
  249.  
  250. 3.2  Outbound announcement -- Routes announced from the NSFNET to the
  251.      DDN
  252.  
  253.    The selection of metrics for announcements of NSFNET networks to the
  254.    DDN is controlled by the NSFNET.  The criteria for the metric
  255.    decisions is based on distances between the NSS, which introduces a
  256.    specific network into the NSFNET, and either one of the NSSs that has
  257.    a co-located Mailbridge.  In this context, the distance translates
  258.    into the hop count between NSSs in the NSFNET backbone.  For example,
  259.    the Princeton NSS is currently one hop away from the NSS co-located
  260.    with the Mitre Mailbridge, but is three hops away from the NSS with
  261.    the NASA-Ames Mailbridge.  Therefore, in the case of networks with
  262.    primary paths via the Princeton NSS, the Mitre Mailbridge will
  263.    receive the announcements for those networks at a lower metric than
  264.    the NASA-Ames Mailbridge.  This means that the traffic from the DDN
  265.    to networks connected to the Princeton NSS will be routed through the
  266.    Mailbridge at Mitre to the College Park NSS and then through the
  267.    Princeton NSS to its final destination.  This will guarantee that
  268.    traffic entering the NSFNET from the DDN will take the shortest path
  269.    to its NSFNET destination under normal operating conditions.
  270.  
  271. 3.3  Administrative aspects
  272.  
  273.    Any of the networks connected via the NSFNET can be provided with the
  274.    connectivity to the DDN via the NSFNET upon request from the mid-
  275.    level network through which the specific network is connected.
  276.  
  277.    For networks that do not have a DDN connection other than via NSFNET,
  278.    the NSFNET will announce the nets via one of the Mailbridges with a
  279.  
  280.  
  281.  
  282. Yu & Braun                                                      [Page 5]
  283.  
  284. RFC 1133         Routing between the NSFNET and the DDN    November 1989
  285.  
  286.  
  287.    low metric to create a primary path (e.g., metric "1") and via the
  288.    second Mailbridge as a secondary path (e.g., metric "3").  For
  289.    networks that have their own DDN connection and wish to use the
  290.    NSFNET as a backup connection to DDN, the NSFNET will announce those
  291.    networks via the two Mailbridges at higher metrics.
  292.  
  293.    The mid-level networks need to make a specific request if they want
  294.    client networks to be announced to the DDN via the NSFNET. Those
  295.    requests need to state whether this would be a primary connection for
  296.    the specific networks.  If the request is for a fallback connection,
  297.    it needs to state the existing metrics in use for announcements of
  298.    the network to the DDN.
  299.  
  300. 4.  Shortcomings of the current NSFNET/DDN interconnection routing
  301.  
  302.    The current setup makes full use of the two Mailbridges that connect
  303.    to the NSFNET directly, with regard to redundancy and load sharing.
  304.    However, with regard to performance optimization, such as packet
  305.    propagation delay between source/destination pairs located on
  306.    disjoint peer networks, there are some shortcomings.  These
  307.    shortcomings are not easy to overcome because of the limitations of
  308.    the current architecture.  However, it is a worthwhile topic for
  309.    discussion to aid future improvements.
  310.  
  311.    To make the discussion easier, the following assumptions and
  312.    terminology will be used:
  313.  
  314.       The NSFNET is viewed as a cloud and so is the DDN.  The two have
  315.       two connections, one at east coast and one at west coast.
  316.  
  317.       mb-east -- the Mailbridge at Mitre
  318.  
  319.       mb-west -- the Mailbridge at Ames
  320.  
  321.       NSS-east -- the NSS egp peer with mb-east
  322.  
  323.       NSS-west -- the NSS egp peer with mb-west
  324.  
  325.       DDN.east-net -- networks connected to DDN and physically closer to
  326.                       mb-east
  327.  
  328.       DDN.west-net -- networks connected to DDN and physically closer to
  329.                       mb-west
  330.  
  331.       NSF.east-net -- networks connected to NSFNET and physically closer
  332.                       to NSS-east
  333.  
  334.       NSF.west-net -- networks connected to NSFNET and physically closer
  335.  
  336.  
  337.  
  338. Yu & Braun                                                      [Page 6]
  339.  
  340. RFC 1133         Routing between the NSFNET and the DDN    November 1989
  341.  
  342.  
  343.                       to NSS-west
  344.  
  345.    The traffic between NSFNET<->DDN will fall into the following
  346.    patterns:
  347.  
  348.       a) NSF.east-net <-> DDN.east-net or
  349.          NSF.west-net <-> DDN.west-net
  350.  
  351.       b) NSF.east-net <-> DDN.west-net or
  352.          NSF.west-net <-> DDN.east-net
  353.  
  354.    The ideal traffic path for a) and b) should be as follows:
  355.  
  356.    For traffic pattern a)
  357.  
  358.         NSF.east-net<-->NSS.east<-->mb-east<-->DDN.east-net
  359.  
  360.    or
  361.  
  362.         NSF.west-net<-->NSS.west<-->mb-west<-->DDN.west-net
  363.  
  364.    For traffic pattern b)
  365.  
  366.         NSF.east-net-*->NSS.west-->mb-west-->DDN.west-net-**->mb-east
  367.                                                                     |
  368.                                               NSF.east-net<--NSS-east
  369.  
  370.    or
  371.  
  372.         NSF.west-net-*->NSS.east-->mb-east-->DDN.east-net-**->mb-west
  373.                                                                     |
  374.                                               NSF.west-net<--NSS-west
  375.  
  376.  
  377.    Note:
  378.  
  379.         -*-> is used to indicate traffic transcontinentally traversing
  380.         the NSFNET backbone
  381.  
  382.         -**-> is used to indicate traffic transcontinentally traversing
  383.         the DDN backbone
  384.  
  385.         The traffic for a) will transcontinentally traverse NEITHER the
  386.         NSFNET backbone, NOR the DDN backbone.
  387.  
  388.         The traffic for b) will transcontinentally traverse NSFNET once
  389.         and DDN once and only once for each.
  390.  
  391.  
  392.  
  393.  
  394. Yu & Braun                                                      [Page 7]
  395.  
  396. RFC 1133         Routing between the NSFNET and the DDN    November 1989
  397.  
  398.  
  399.    For the current set up,
  400.  
  401.    The traffic path for pattern a) would have chances to
  402.    transcontinentally traverse both NSFNET and DDN.
  403.  
  404.    The traffic path for pattern b) would have chances to
  405.    transcontinentally traverse the DDN in both directions.
  406.  
  407.    To achieve the ideal traffic path it requires the NSFNET to implement
  408.    (3) as stated above, i.e., to treat the DDN like other NSFNET peer or
  409.    mid-level networks.  As mentioned before, discussions between NSFNET
  410.    and DDN people are underway and the DDN is considering providing the
  411.    NSFNET with the required information to accomplish the outlined goals
  412.    in the near future.
  413.  
  414.    At such time as this is accomplished, it will reduce the likelihood
  415.    of packet traffic unnecessarily traversing national backbones.
  416.  
  417.    One of the best ways to optimize the traffic between two peer
  418.    networks, not necessary limited to the NSFNET and the DDN, is to try
  419.    to avoid letting traffic traverse a backbone with a comparatively
  420.    slower speed and/or a backbone with a significantly larger diameter
  421.    network.  For example, in the case of traffic between the NSFNET and
  422.    the DDN, the NSFNET has a T1 backbone and a maximum diameter of three
  423.    hops, while the DDN is a relatively slow network running largely at
  424.    56Kbps.  In this case the overall performance would be better if
  425.    traffic would traverse the DDN as little as possible, i.e., whenever
  426.    the traffic has to reach a destination network outside of the DDN, it
  427.    should find the closest Mailbridge to exit the DDN.
  428.  
  429.    The current architecture employed for DDN routing is not able to
  430.    accomplish this.  Firstly, the technology is designed based on a core
  431.    model.  It does not expect a single network to be announced by
  432.    multiple places.  An example for multiple announcements could be two
  433.    NSSs announcing a single network number to the two Mailbridges at
  434.    their different locations.  Secondly, the way all the existing
  435.    Mailbridges exchange routing information among themselves is done via
  436.    a protocol similar to EGP, and the information is then distributed
  437.    via EGP to the DDN-external networks.  In this case the physical
  438.    distance information and locations of network numbers is lost and
  439.    neither the Mailbridges nor the external gateways will be able to do
  440.    path optimization based on physical distance and/or propagation
  441.    delay.  This is not easy to change, as in the DDN the link level
  442.    routing information is decoupled from the IP level routing, i.e., the
  443.    IP level routing has no information about topology of the physical
  444.    infrastructure.  Thus, even if an external gateway to a DDN network
  445.    were to learn a particular network route from two Mailbridges, it
  446.    would not be able to favor one over the other DDN exit point based on
  447.  
  448.  
  449.  
  450. Yu & Braun                                                      [Page 8]
  451.  
  452. RFC 1133         Routing between the NSFNET and the DDN    November 1989
  453.  
  454.  
  455.    the distance to the respective Mailbridge.
  456.  
  457. 5.  Conclusions
  458.  
  459.    While recent changes in the interconnection architecture between the
  460.    NSFNET and DDN peer networks have resulted in significant performance
  461.    and reliability improvements, there are still possibilities for
  462.    further improvements and rationalization of this inter-peer network
  463.    routing.  However, to accomplish this it would most likely require
  464.    significant architectural changes within the DDN.
  465.  
  466. 6.  References
  467.  
  468.   [1]  Rekhter, Y., "EGP and Policy Based Routing in the New NSFNET
  469.        Backbone", RFC 1092, IBM Research, February 1989.
  470.  
  471.   [2]  Braun, H-W., "The NSFNET Routing Architecture", RFC 1093,
  472.        Merit/NSFNET Project, February 1989.
  473.  
  474.   [3]  Collins, M., and R. Nitzan, "ESNET Routing", DRAFT Version 1.0,
  475.        LLNL, May 1989.
  476.  
  477.   [4]  Braun, H-W., "Models of Policy Based Routing," RFC 1104,
  478.        Merit/NSFNET Project, February 1989.
  479.  
  480. Security Considerations
  481.  
  482.    Security issues are not addressed in this memo.
  483.  
  484. Authors' Addresses
  485.  
  486.    Jessica (Jie Yun) Yu
  487.    Merit Computer Network
  488.    1075 Beal Avenue
  489.    Ann Arbor, Michigan 48109
  490.  
  491.    Telephone:      313 936-2655
  492.    Fax:            313 747-3745
  493.    EMail:          jyy@merit.edu
  494.  
  495.    Hans-Werner Braun
  496.    Merit Computer Network
  497.    1075 Beal Avenue
  498.    Ann Arbor, Michigan 48109
  499.  
  500.    Telephone:      313 763-4897
  501.    Fax:            313 747-3745
  502.    EMail:          hwb@merit.edu
  503.  
  504.  
  505.  
  506. Yu & Braun                                                      [Page 9]
  507.  
  508. RFC 1133         Routing between the NSFNET and the DDN    November 1989
  509.  
  510.  
  511.  
  512.  
  513.  
  514.  
  515.  
  516.  
  517.  
  518.  
  519.  
  520.  
  521.  
  522.  
  523.  
  524.  
  525.  
  526.  
  527.  
  528.  
  529.  
  530.  
  531.  
  532.  
  533.  
  534.  
  535.  
  536.  
  537.  
  538.  
  539.  
  540.  
  541.  
  542.  
  543.  
  544.  
  545.  
  546.  
  547.  
  548.  
  549.  
  550.  
  551.  
  552.  
  553.  
  554.  
  555.  
  556.  
  557.  
  558.  
  559.  
  560.  
  561.  
  562. Yu & Braun                                                     [Page 10]
  563.